Generative Pre-trained Transformer 3

Generative Pre-trained Transformer 3 (GPT-3)
Basisdaten

Entwickler OpenAI
Erscheinungsjahr 28. Mai 2020
Aktuelle Version 175B[1]
Lizenz proprietäre Lizenz
https://openai.com/blog/openai-api

Generative Pre-trained Transformer 3 (GPT-3) ist ein im Mai 2020 vorgestelltes autoregressives Sprachmodell, das Deep Learning verwendet, um natürlich wirkenden Text zu produzieren. Es ist der Nachfolger von GPT-2 und wurde von OpenAI entwickelt, einem amerikanischen Unternehmen, das Forschung zu künstlicher Intelligenz betreibt. Die größte Version von GPT-3 besitzt 175 Milliarden Parameter. GPT-3 ist Teil eines Trends in der Computerlinguistik, Systeme mit vortrainierten Sprachrepräsentationen zu nutzen. Die Qualität der von GPT-3 generierten Texte ist so hoch, dass es schwierig ist, sie von Texten zu unterscheiden, die von Menschen geschrieben wurden, was sowohl Vorteile als auch Nachteile hat. Microsoft verkündete im September 2020, dass es die „exklusiven“ Nutzungsrechte an GPT-3 lizenziert habe, andere können weiterhin die öffentliche API nutzen, aber nur Microsoft habe Kontrolle über den Quellcode.

  1. In: Language Models are Few-Shot Learners. 22. Juli 2020: „To study the dependence of ML performance on model size, we train 8 different sizes of model, ranging over three orders of magnitude from 125 million parameters to 175 billion parameters, with the last being the model we call GPT-3.

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search